#AI 競賽
美國3960座,中國第三:AI時代真正的差距,終於藏不住了
很多人以為,AI競爭發生在模型之間。有人討論參數規模,有人關注晶片性能,也有人爭論誰的演算法更先進。但2026年的一組全球資料,卻揭開了一個更殘酷的現實——美國擁有3960座資料中心。而排名第二到第十五的國家加起來,才勉強接近這個數字。這意味著,當世界還在討論AI未來時,真正支撐人工智慧運行的底層戰爭,其實早已開始。甚至,在某種程度上,勝負已經初步分出。一、AI時代最重要的資源,不是模型今天你打開手機:一次ChatGPT對話、一次短影片推薦、一次雲端檔案同步、一次自動駕駛訓練——背後都不是“軟體”。而是一座座全天候運轉的資料中心。這些建築看似普通,卻是這個時代最昂貴、最耗能、也最關鍵的基礎設施。一個大型AI資料中心通常意味著:數十萬張高性能計算卡持續運行巨量電力供應系統工業級散熱設施全球網路交換節點訓練一次先進AI模型,所消耗的電力,甚至相當於一個小城市數天用電量。於是,一個越來越清晰的邏輯出現:AI競爭,本質是算力競爭。算力競爭,本質是資料中心競爭。二、一張全球地圖,看懂真正的差距根據2026年全球資料中心統計:第一名與第二名之間,差距接近8倍。這不是領先。這是基礎設施層面的代際鴻溝。換句話說——全球網際網路的“物理核心”,仍然集中在美國。三、為什麼美國能形成壓倒性優勢?很多人會疑惑:中國擁有全球最大網際網路人口,為何資料中心數量卻明顯落後?答案並不複雜。1. 雲端運算霸權的歷史積累過去十五年,美國科技公司完成了一件極其關鍵的事情:提前建設全球雲基礎設施。全球三大雲服務體系——Amazon AWS、Microsoft Azure、Google Cloud幾乎建構了現代網際網路的底層運行環境。當AI浪潮突然爆發時,美國並不是追趕者,而是已經擁有完整高速公路的玩家。2. 資料天然向平台集中網際網路世界存在一個鐵律:資料,會流向平台。而全球最核心的平台公司,大多誕生於美國。平台在哪裡,資料中心就在哪裡。長期積累之下,美國形成了全球最大的算力網路。3. 被忽視的關鍵變數:電力AI時代,一個真正稀缺的資源正在浮現——電力。超大型資料中心往往需要數百兆瓦穩定供電。美國擁有:成熟電網體系低成本土地能源供應多樣性弗吉尼亞州甚至被稱為“世界網際網路首都”,全球大量網路流量在此交換。AI,本質上正在變成能源產業。四、歐洲:穩定,卻難以爆發歐洲的資料中心呈現明顯叢集:英國、德國、法國、荷蘭構成核心節點。優勢在於:網路連線密集企業數位化需求強金融資料交換頻繁但現實限制同樣明顯:能源價格高環保監管嚴格電力擴容困難歐洲因此成為全球算力體系中的“穩定樞紐”,而非增長引擎。五、真正的變數,在亞洲如果說美國代表現在,那麼亞洲代表未來。中國、印度、日本、印尼的資料中心數量正在快速增長。背後的推動力只有一個:需求爆炸。亞洲擁有全球最大數字人口與移動網際網路活躍度。資料產生速度,正在遠超全球平均水平。與此同時,各國開始強化資料本地化政策:資料必須儲存在本國。這直接推動本土資料中心建設進入加速週期。一個新概念開始出現:算力主權。未來國家競爭,不僅是晶片或模型競爭,而是——是否擁有獨立運行AI的能力。六、AI戰爭,正在從晶片轉向電力過去三年,人們關注GPU。未來十年,競爭焦點將轉向:電網容量能源結構資料中心密度散熱效率越來越多科技公司開始直接投資能源項目。原因極其簡單:沒有電,就沒有AI。科技競爭,重新回到了工業基礎能力。七、資料中心,正在重塑全球經濟版圖歷史上:港口決定貿易中心;鐵路決定工業城市;石油決定能源格局。而今天:資料中心正在決定數字經濟中心。算力叢集出現的地方,將吸引:AI企業創業資本雲生態高端就業新的城市競爭邏輯已經誕生——不是誰樓更高,而是誰的算力更強。八、未來十年:世界或進入“三極算力時代”全球算力格局正在走向三極結構:美國:絕對領先的AI訓練核心歐洲:全球資料交換樞紐亞洲:增長最快的算力需求中心真正的懸念只有一個:亞洲能否在規模上追趕美國?2026資料中心十大趨勢:AI、可持續與創新AI驅動需求爆炸:到2030年,資料中心需求近三倍增長,主要因AI。      GPU密集型工作負載讓能耗翻倍。液冷革命:傳統風冷不足,液冷部署從2025年的33%升至2026年的40%。**hyperscale主導**:大型企業轉向超大規模中心,到2030年佔61%容量。綠色能源轉型:資料中心投資佔全球綠地投資20%,焦點在可再生能源。邊緣計算加速:5G推動資料中心向使用者端遷移,減少延遲。供應鏈挑戰:稀土元素短缺影響晶片生產。許可競賽:各國加快審批,歐洲GW級校園湧現。混合雲最佳化:企業      repatriation 資料,回遷到本地以控成本。量子準備:2026年是量子計算就緒年,資料中心需升級。投資熱潮:全球承諾供應量是建設中的數倍,亞太增長32.9%      CAGR。這些趨勢表明,資料中心不止是“倉庫”,而是創新引擎。結語:AI革命,其實非常“物理”很多人認為AI存在於雲端。但現實恰恰相反。AI存在於:發電廠旁,光纖節點下,以及無數晝夜運轉的伺服器機房中。當演算法逐漸普及、模型逐漸開源之後,真正稀缺的,將不再是程式碼。而是——持續運行智能的能力。21世紀的競爭,不再只是科技競爭。而是算力、能源與基礎設施的綜合競爭。未來世界的權力結構,也許將由一個看似低調的指標決定:一個國家,究竟擁有多少座資料中心。 (ForceInstitute)
AI“軍備競賽”,亞馬遜輸不起的戰爭
對於經營業績愈發依賴雲端運算業務的亞馬遜來說,這場愈演愈烈的AI“軍備競賽”已經是一場輸不起的戰爭。1. 單季度營收突破2000億美元近日,亞馬遜公佈了截至12月31日的2025年第四季度及全年財報。資料顯示,2025年第四季度,亞馬遜實現營收2134億美元,同比增長14%,這也是單季度營收規模首次突破2000億美元大關。同期,亞馬遜實現淨利潤212億美元,同比增長6%,稀釋後每股收益為1.95美元,略低於市場預期的1.97美元。2025年全年,亞馬遜營收規模達到7169億美元,同比增長12%,營收規模首次突破7000億美元大關。同期,亞馬遜淨利潤從2024年的592億美元飆升至777億美元,同比增幅達到31%。在全球經濟環境並不明朗的大背景下,亞馬遜盈利能力得到了顯著提升。作為全球最大的電商平台,亞馬遜最初以線上書店的形式誕生於1994年,由傑夫·貝索斯創立。此後,憑藉著貝索斯本人所堅守的長期主義、顧客至上等經營理念,亞馬遜迅速發展為集電商、雲端運算、人工智慧與線下實體店於一體的消費和科技巨頭,同時也是繼蘋果之後,美國第二家市值破兆美元的上市公司。從營收構成上看,亞馬遜主營業務共分為零售業務和雲端運算服務兩大類。其中,零售類股屬於公司的基本盤,具體又可細分為線上商店、線下零售(實體店)、第三方商家服務(線上3P賣家佣金與履約費)、會員與訂閱服務及線上廣告等五部分。財報顯示,2025年第四季度,亞馬遜線上商店業務實現營收829.88億美元,同比增長10%;實體店業務實現營收58.55億美元,同比增長5%;第三方賣家服務實現營收428.16億美元,同比增長11%;訂閱服務實現營收131.22億美元,同比增長14%;廣告業務實現營收213.17億美元,同比增長23%。分區域來看,亞馬遜零售業務又可以分為北美市場和國際市場兩大部分,主要涵蓋公司從北美和世界其他地區的零售以及這些地區的訂閱和出口銷售中所獲得的收入。其中,北美業務屬於公司的核心營收支柱。財報顯示,2025年第四季度,亞馬遜北美地區實現銷售額1270.83億美元,同比增長10%,營業利潤達到93億美元,同比增長24%,盈利能力顯著提升。同期,亞馬遜國際電商實現營收507億美元,同比增長17%,營收增速高於北美地區,主要受益於新興市場的業務拓展及海外電商滲透率提升。受海外市場競爭加劇、物流成本上升及局部地區業務調整影響,亞馬遜國際業務營業利潤同比下降23%至10億美元,盈利能力相對微薄,整體上看仍處於業務最佳化階段。2. 雲業務貢獻超6成利潤相比平穩增長的零售業務,亞馬遜雲業務更為外界所關注。2025年第四季度,AWS業務實現銷售額356億美元,同比增長24%,營收增速創下13個季度以來新高,成為本季度財報最大亮點。同期,AWS業務實現營業利潤125億美元,同比增長18%,營業利潤率35.0%。2025年全年,AWS業務共實現營收1287億美元,同比增長20%,收入佔比達到18%,雲業務持續成為推動亞馬遜營收增長的一大動力。此外,從利潤貢獻度來看,AWS業務2025年為亞馬遜貢獻了公司超過60%的營業利潤,成為公司最為重要的“現金牛”業務。2006年,亞馬遜創始人貝索斯發表了關於雲端儲存和雲端運算的概念演講,並宣佈投資創立雲端運算AWS。同年,亞馬遜雲科技(AWS)正式發佈Amazon EC2和Amazon S3服務,這標誌著雲端運算作為一種商業服務正式誕生,亞馬遜也由此奠定了在雲端運算領域的霸主地位。作為貝索斯的首任“影子顧問”,安迪·傑西與貝索斯共同提出了建構雲端運算平台(AWS)的構想。自AWS上線以來,安迪·傑西便帶領團隊持續最佳化AWS的產品與服務。在競爭策略上,安迪·傑西為壓制對手多次主動發起價格戰,讓AWS保持了全球第一的市場領先地位,並牢牢把控住了全球雲端運算的主導權。2021年7月,貝索斯宣佈退休,安迪·傑西憑藉其主政亞馬遜AWS的出色表現登上了亞馬遜公司整體業務掌門人的寶座。不過,隨著微軟、Google等競爭對手的持續發力,亞馬遜雲業務的霸主地位不斷受到衝擊,安迪·傑西本人也一度遭到投資者的質疑。根據Canalys統計資料,2017年,亞馬遜雲在全球IaaS公有雲服務市場的份額高達49.4%,微軟雲(Azure)市場份額僅為12.7%。此後,微軟Azure迅速發展,兩者的市佔率差距不斷縮小。根據Synergy Research Group最新資料,2025年第四季度,亞馬遜在公有雲市場的市場份額約為28%,在主要雲服務提供商中依然保持著領先地位。微軟以21%的市場份額位居第二,Google市場份額約為14%,三大雲服務提供商控制了公有雲市場68%的份額。但從營收增速來看,AWS四季度的營收增速(24%)明顯不及微軟Azure(39%)和Google雲(48%),微軟Azure仍是AWS在雲服務市場中一個巨大的威脅。3. 自研晶片年化收入超百億美元整體來看,亞馬遜交出了一份可圈可點的四季度成績單,無論是零售業務還是雲業務表現均超出市場預期。對此,公司總裁兼首席執行長安迪·傑西表示:“AWS業務增長24%,創下13個季度以來最快增速,廣告業務增長22%,北美和國際市場的實體店業務快速增長,晶片業務同比增長超過三位數——這些增長得益於我們持續快速創新,並不斷髮現和解決客戶痛點。”安迪·傑西同時表示,鑑於市場對公司現有產品和服務的強勁需求,以及人工智慧、晶片、機器人和近地軌道衛星等前沿領域的機遇,預計2026年亞馬遜將在資本支出方面投入約2000億美元。資料顯示,2025年全年,亞馬遜資本開支為1310億美元。這就意味著,亞馬遜2026年資本開支增幅將達到52%,這一增幅明顯超出公司現階段營收增速(14%),同時也大幅高於此前華爾街分析師的預估資料(1447億美元)。因此,亞馬遜四季度財報一經公佈,公司股價在盤後交易中一度暴跌超過10%。截至2月9日收盤,亞馬遜股價報收於208.72美元,總市值在三個交易日之內蒸發逾2500億美元。事實上,二級市場投資者對於科技巨頭的AI軍備競賽愈發表現出不安與恐慌。最新財報資料顯示,Google預測其2026年資本支出最高達到1850億美元,同比增幅接近翻倍;與此同時,微軟2026年的資本支出增幅也高達66%。資料公佈之後,上述兩家公司股價均遭到暴擊。其中,微軟股價單日跌幅達到9.99%,創下六年來最慘跌幅,市值單日蒸發4000億美元。有分析認為,亞馬遜、Google等公司的四季度財報資料已經表明,近年來科技巨頭在AI基礎設施上的巨額投入已經切實轉化為客戶需求與收入,這也是美股“科技7姐妹”股價迭創新高的原因所在。然而,從各大科技巨頭披露的2026年資本支出計畫來看,僅亞馬遜、微軟、Google和Meta等四家公司就準備在AI基礎設施上砸下6600億美元,這說明巨頭的花錢速度遠超過其創收速度,最終難免要犧牲企業的自由現金流。事實上,為了平衡不斷增加的AI投資,亞馬遜已經在其他領域大幅縮減支出。根據公開報導,2025年10月和2026年1月,亞馬遜連續兩次進行大規模裁員,裁員數量分別為1.4萬人和1.6萬人。2025年第四季度,亞馬遜共計提遣散費用7.3億美元。值得一提的是,與微軟、Google等科技巨頭“ALL IN AI”不同的是,亞馬遜2000億美元的資本開支中包含了龐大的電商履約網路建設,以圖最佳化公司零售業務營運效率,並持續推廣AI購物助手Rufus,提升客戶購物體驗,鞏固零售市場領先地位。此外,自研晶片的投入也是亞馬遜這筆史無前例的資本開支的一大重點。據財報披露,亞馬遜AI訓練晶片Trainium和通用處理器Graviton的合計年化收入運行率已超過100億美元,並保持三位數年增長率。其中,Trainium 2累計交付已達140萬顆;Trainium 3在2026年中旬前的供應量已被預訂一空。近年來,亞馬遜科技一直致力於自主研發人工智慧(AI)訓練晶片,以圖擺脫對於輝達的過度依賴。2025年12月3日,AWS正式推出了其最新一代產品——Trainium 3。據悉,Trainium 3是基於其尖端3奈米製程所打造,這款第三代晶片及其配套系統在訓練和高負載推理場景下的速度較上一代產品提升超過4倍,記憶體容量也增至4倍。包括Anthropic、日本大語言模型公司Karakuri、SplashMusic以及Decart在內的多家客戶已率先採用第三代Trainium晶片及系統,並顯著降低了推理成本。此外,AWS還主動披露了下一代晶片Trainium 4的開發進展。據悉,Trainium 4預計於2027年開始交付,這款下一代產品將帶來性能的重大躍升,並將支援輝達的NVLink Fusion高速晶片互聯技術。這也意味著,Trainium 4的系統不僅能與輝達GPU協同運行,還可以幫助AWS吸引那些基於輝達GPU開發的大型AI應用遷移至亞馬遜雲平台。如此一來,亞馬遜就進一步增強了其挑戰輝達的資本和能力。可以預見的是,輝達在AI晶片市場“一家獨大”的單極格局終將被打破,而亞馬遜則成為繼Google之後的又一重磅選手,而這也是其願意投入2000億美元去豪賭未來的原因所在。畢竟,對於經營業績嚴重依賴於雲端運算業務的亞馬遜來說,這場愈演愈烈的AI“軍備競賽”已經是一場輸不起的戰爭。 (礦石商業評論)
一篇瞭解中美AI競爭格局的科普文
按:近期,字節跳動推出的多模態視訊大模型 Seedance 2.0 在2026年初引爆全球開發者社區,被視為中國AI原生創新的標竿,彰顯本土技術從“追趕”邁向“引領”的潛力。很多人感興趣當前中美AI企業的競爭形勢究竟如何?以下分享來自巴克萊的最新研報,算是瞭解當前中美AI創新企業競爭格局的科普文。其實自2022年ChatGPT公開發佈以來,人工智慧(AI)已成為推動全球股市盈利增長、資本支出(capex)和投資回報的主要引擎。進入2026年,隨著生成式AI技術從實驗階段邁向規模化部署,中國科技公司正迅速崛起,挑戰美國在全球AI競賽中的主導地位。然而,這一處理程序並非一帆風順:全球AI相關企業估值持續攀升的同時,美國AI公司面臨融資壓力,而中國同行則在艱難的定價環境與不斷調整的稅收政策中艱難前行。在本篇報告中,巴克萊從回顧美中股市(尤其是各自科技類股)近期的表現趨勢;對比了西方與東方市場的AI融資架構,以幫助理解AI投資如何塑造當前市場動態;到深入分析中美AI技術堆疊的技術細節;隨後探討中美雙方在AI採用、普及及變現前景上的不同路徑。最後,巴克萊認為,供給約束、市場邊界侷限以及使用模式差異共同導致中國AI生態在資本投入和算力消耗規模上與美國存在顯著差距。這一差距不僅體現在當前支出水平,也可能影響未來技術迭代與生態競爭力的長期格局。一、股市表現與估值自2022年底ChatGPT發佈以來,美股表現強勁。標普500指數的未來12個月市盈率(NTM P/E)從2022年第三季度末的15.3倍擴張至目前的21.7倍,AI是關鍵推動力。其中,超大型科技股(mega-cap Tech)在指數表現和盈利貢獻中佔據了不成比例的高份額。具體來看,“Big Tech”(大型科技公司)對標普500每股收益(EPS)的貢獻佔比從2022年第三季度的約12%躍升至2025年第四季度的約30%。同期,Big Tech的NTM市盈率從22.9倍上升至27.3倍;而科技類股中其他公司的市盈率也從15.4倍顯著擴張至24.5倍。相比之下,恆生指數(HSCI)自2022年以來的表現更為波動,其中2023年成為拖累三年整體回報的關鍵年份。當年中國經濟放緩導致中資股票大幅走弱:恆生指數最大回撤達-28.2%,而標普500同期僅為-10.3%。儘管如此,自2022年第三季度末以來,恆生指數已累計上漲約68%,表現健康,但仍落後於美股。與美國類似,科技股在中國股市也是推動回報的主要力量——過去三年,該類股是恆生指數中表現最好的行業之一,累計漲幅達96.7%。然而,一個關鍵區別在於對整體指數回報的傳導效應:恆生指數的行業分佈遠不如標普500集中於科技類股。標普500約33%的市值集中在科技行業,而恆生指數中科技股權重僅為5%左右。相比之下,金融和可選消費類股合計佔恆生指數市值權重的47%。這意味著,中國經濟的整體狀況及其消費者信心對恆指表現的影響,遠大於科技公司。若單獨比較標普500與恆生指數中的科技類股,差距更為顯著:自2022年第三季度末以來,美國科技股絕對回報高達約172%,大幅領先中國同行。這一分化背後,美國AI熱潮無疑是核心催化劑,而中美之間的貿易緊張局勢進一步加劇了這一鴻溝。美國的出口管制限制了中國獲取先進計算晶片和半導體製造裝置的能力,對部分中國AI技術堆疊(尤其是算力層)構成了明確的制約。美國在AI研發和盈利方面的領先地位,對中國企業而言可能難以快速彌合。我們認為,考慮到近期估值的重新定價,中國科技股中任何所謂的“AI溢價”都顯得更為脆弱,且更依賴經濟周期,相較之下,美國科技股的AI估值支撐則更具結構性和可持續性。二、AI投資:東方與西方之比較作為一項早期技術,AI的發展高度依賴持續的投資與資金支援。我們將中美兩國的AI支出劃分為兩大類進行對比:政府支出與非政府支出。核心區別在於:美國的技術投資主要由非政府主體驅動(即超大規模雲服務商的資本開支),而中國的科技基礎設施建設則更多受到政府主導型資金的引導。1、非政府支出我們估算,過去三年美國主要超大規模雲服務商(包括Meta、Alphabet、亞馬遜、微軟和Oracle)的資本開支總額從1281億美元大幅擴張至3922億美元,並預計2026年將增長約52%,2027年再增長約19%。中國的主要超大規模企業包括騰訊、字節跳動、阿里巴巴和華為。我們估計,2025年:1)騰訊資本開支為120億美元,2)字節跳動為120億美元,3)阿里巴巴為180億美元。4)華為作為非上市公司,披露的財務資料口徑不同,但其2024年年報顯示研發支出達1797億元人民幣(約合257億美元),較2022年的1615億元人民幣增長10.8%。展望未來,阿里巴巴和騰訊預計將成中國AI投資的主要推動力。例如,阿里巴巴已宣佈計畫在未來三年(2025–2027財年)投入3800億元人民幣用於AI和雲端運算基礎設施。此外,中國的國有電信營運商(如中國移動、中國電信)也是資料中心投資的重要來源,我們將在後文進一步討論。儘管中美超大規模企業的資本開支增速相近,但總支出規模仍嚴重偏向美國——美國雲巨頭正持續大規模擴建算力基礎設施,並投資下一代AI晶片,而中國企業在高端算力獲取受限的背景下,整體投入體量仍明顯較小。2、政府支出由於中美在AI投資模式上存在根本差異,兩國政府支出難以直接對標。我們觀察到,中國政府對AI及科技領域的財政支援主要通過三種形式實現:1)直接政府投資:由地方政府設立的市級或省級科技產業基金;2)政府背景的風投/私募基金:通過國有投資平台募集並管理的資金;3)面向高校與科研機構的公共科研經費:用於支援基礎科技與前沿研究。基於這一框架,我們彙總了若干主要資金來源,包括:1)國家積體電路產業投資基金(“大基金”)三期;2)北京人工智慧與機器人產業基金等重點城市及科技樞紐的省級基金。據此估算,未來十年中國政府主導的科技投資承諾總額至少達9480億元人民幣(約合1350億美元),資金來源涵蓋直接財政撥款與政府引導撬動的資本。其中:1)政府引導基金是最大來源,規模約6100億元人民幣(佔總額的64.3%),計畫在未來5–10年逐步投放;2)直接投資佔比11.6%;3)其餘部分為高校與科研機構的公共研究經費。需要指出的是,這只是一個粗略估算,實際政府投入可能遠高於此。例如,我們的測算未包含“國家創業投資引導基金”——該基金目標是在未來20年內撬動1兆元人民幣(約1420億美元)支援科技創新項目。若政策性金融動員目標全面落地,中國官方對AI生態系統的支援力度可能被顯著低估。美國政府對AI基礎設施的投資主要通過《晶片與科學法案》(CHIPS Act)實施。該法案撥款約520億美元聯邦資金,用於支援半導體製造激勵、研發補貼及針對晶圓廠和裝置製造商的稅收抵免。截至目前,這項政策已撬動數千億美元的私人投資。自2022年8月法案頒布以來,大部分撥款已獲批或分配,但由於採用基於里程碑的支付機制,實際資金撥付預計將延續至未來數年。除CHIPS法案外,美國政府預計每年還將額外投入數十億美元用於與AI相關的各類項目,包括清潔能源稅收抵免、基礎設施與電力投資,以及國防部(DoD)和國家科學基金會(NSF)的專項經費。簡言之,美國在AI領域的資金投入憑藉超大規模雲服務商的資本開支和強勁的私人投資,總體規模遠超中國;而中國則更依賴政府主導的財政承諾來縮小差距。三、中美AI技術堆疊在接下來的部分中,我們將深入分析中美AI技術堆疊的技術細節,並比較其應用普及與分發模式。我們聚焦於AI生態系統的三個核心維度(或層級):應用層(Applications)、模型層(Model Layer)、算力層(Compute Layer)。1、應用層(Application Layer)(1)月活躍使用者(MAU):中國AI聊天機器人使用者規模遠小於西方同行,且高度集中於本土。根據第三方2025年9月的估算資料:DeepSeek全球月活使用者(MAU)達約2.49億(涵蓋App與網頁端),在中國AI聊天機器人中排名第一;字節跳動的 Doubao 約1.99億;騰訊的 Yuanbao 約4900萬;月之暗面(Moonshot AI)的 Kimi 約2300萬。相比之下,西方主流產品同期表現如下:ChatGPT MAU約7.99億;Gemini約3.01億;Grok約4900萬(見圖14)。這意味著,中國領先的AI聊天機器人使用者規模僅相當於ChatGPT同期的約30%。儘管第三方資料可能存在偏差,僅可作為趨勢參考,但結合企業最新披露:ChatGPT在2025年10月宣佈周活躍使用者(WAU)已達8億,Gemini在2026年2月MAU突破7.5億,表明西方AI聊天機器人的擴張速度仍在加快。此外,ChatGPT使用者高度全球化——據《The Information》報導,其近90%的使用者來自美國和加拿大以外地區。而中國聊天機器人的使用者幾乎全部集中於境內,海外滲透率接近於零,唯一例外是DeepSeek:其海外MAU達約5200萬,與Grok同期流量相當,佔其總使用者的約21%。(2)移動端 vs 網頁端:中國AI使用以移動端為主導。QuestMobile資料顯示,2025年9月中國移動端AI使用者達7.29億,約為PC端(網頁及桌面應用)使用者的3.6倍。比如Doubao 在移動端流量領先,其移動MAU是網頁端的6.5倍;DeepSeek則在網頁端表現最佳,但其移動MAU仍是網頁端的2倍。這凸顯了中國AI應用具有鮮明的“移動原生”和“消費者導向”特徵。相比之下,西方模型在網頁端的工作流場景中參與度更高:ChatGPT、Gemini和Claude的網頁端MAU均顯著高於移動端(見圖14),反映出其在生產力工具和工作流程整合方面的更強滲透力。(3)贏家通吃?頭部效應顯著,使用者黏性極強。當前,無論東西方,AI聊天機器人使用者高度集中在前兩名玩家手中,且使用者表現出極強的產品黏性。在中國,DeepSeek與Doubao 合計佔據獨立AI聊天機器人絕大部分MAU(涵蓋網頁與移動);在西方,ChatGPT與Gemini 主導市場。值得注意的是,儘管各大語言模型(LLM)在基準測試中持續刷新性能紀錄,但聊天機器人端的使用者遷移意願極低——這很可能源於產品設計優勢和已形成的使用習慣。然而需提醒的是,中國AI應用的使用者規模仍遠小於海外領導者,也遠低於國內成熟超級App(如微信日活超10億)。市場仍處早期階段,增長路徑可能隨時間演變。為此,阿里巴巴、騰訊、百度等科技巨頭已在2026年春節假期推出“紅包引流”活動,以爭奪AI使用者。具體使用者增長動態如下:移動端方面:Doubao在2024年12月MAU為7500萬,到2025年9月迅速增至1.72億;36氪報導稱其DAU已於2024年12月突破1億。騰訊Yuanbao從2024年12月的200萬MAU增長至2025年9月的3300萬。Kimi和百度文心一言(Wenxiaoyan)的MAU則出現下滑。DeepSeek無疑是此階段使用者增長的最大黑馬:自2025年1月上線後,其中國區MAU從1月的約3400萬飆升至9月的1.45億。阿里通義千問(Qwen):截至2025年9月MAU僅300萬,但在2025年11月重新發佈後,2026年1月MAU已突破1億。(4)嵌入式應用 vs 獨立聊天機器人:在中國,嵌入現有超級App內的AI功能(如AI搜尋、智能助手) 遠超獨立聊天機器人。我們認為,中國的AI使用者流量高度依附於既有消費平台,AI能力被直接整合到微信、抖音、百度App等“超級App”中。例如:百度的AI搜尋在2025年9月達到3.47億MAU,佔其整體搜尋流量的一半以上;百度還披露,截至10月底,約70%的移動端搜尋結果頁已包含AI生成內容。字節跳動在其抖音App內推出的Doubao AI搜尋,MAU達2.15億。騰訊微信的AI搜尋MAU為1.66億。阿里巴巴也在支付寶、高德地圖(Amap)、夸克(Quark)等多個核心應用中全面嵌入AI功能。這些管道極大地加速了AI在中國大眾市場的普及,且相關AI功能普遍免費使用。但這也可能導致AI使用高度依賴平台生態,難以培育出真正獨立的AI品牌。(5)變現模式:中國聊天機器人基本免費,海外使用者付費意願更強。在中國,大多數通用AI聊天機器人(如DeepSeek、智譜Zhipu)目前仍免費開放,以最大化使用者覆蓋和分發規模。根據智譜在港交所IPO檔案披露,儘管AI助手和工具不斷湧現,中國使用者對大語言模型(LLM)的付費意願依然很低。因此,其收入主要來自企業客戶的API呼叫和本地化LLM部署服務。對於大型科技公司而言,AI變現主要通過雲端運算服務和API消耗實現。例如阿里巴巴和百度,當企業客戶擴大模型訓練、微調和推理工作負載時,它們便從中獲得收入。此外,AI也正在賦能現有業務:提升廣告與搜尋推薦效果;為電商提供智能化廣告工具;最佳化客戶服務體驗。不過,MiniMax是一個例外。根據其IPO檔案,2025年前三個季度約70%的收入來自面向消費者的AI產品。但值得注意的是,這些消費端收入幾乎全部來自音訊、圖像、視訊及AI陪伴類應用,而其通用AI聊天機器人/智能體應用“MiniMax”的變現貢獻僅佔總收入的1%。更關鍵的是,在其AI原生產品收入中,超過80%來自中國以外市場,這清晰表明:海外消費者對AI服務的付費意願顯著高於中國使用者。2、模型層(Model Layer)(1)中國開源社區 vs 美國閉源模式中國的大語言模型(LLM)生態明顯趨向開源發展。眾多領先初創企業(如 DeepSeek、月之暗面 Moonshot AI、MiniMax、Z.ai)以及超大規模科技公司(如阿里巴巴、騰訊、百度、字節跳動)紛紛將其最新或接近前沿的模型開源,以加速集體創新。這種策略促進了學術界和商業界的廣泛採用,支援快速迭代,並借助開源社區的集體力量推動模型技術進步。不過,中國超大規模企業普遍採取混合策略:其最先進、高算力消耗的旗艦模型(如阿里通義千問 Qwen3-Max、百度文心 ERNIE-5.0、騰訊混元 HY-2.0-Think、字節跳動 Doubao-1.8)仍保持閉源,以維持商業差異化優勢。政策層面,北京和上海在2025年12月分別發佈規劃,明確將在未來幾年大力發展開源生態,包括到2028年建構數百個行業專用的開源大模型,並向中小企業開放相關技術。相比之下,美國主要玩家——包括 OpenAI、Anthropic 和 Google——仍堅持閉源路線,嚴格保護模型權重不對外公開。(2)定價:DeepSeek輸出價格僅為GPT-5.2的3%中國領先的 LLM 提供商在價格上展開激烈競爭,近期發佈的基礎模型輸出定價普遍不到 GPT-5.2 的 30%。這種大幅折扣反映了其更高效的訓練成本結構和推理最佳化,有助於推動 AI 在中國的廣泛普及。具體案例:DeepSeek V3.2(2025年12月發佈):輸入價格:0.28美元/百萬token(為 GPT-5.2 的 16%);輸出價格:0.42美元/百萬token(僅為 GPT-5.2 的 3%;GPT-5.2 定價為輸入 1.75 美元、輸出 14 美元)。字節跳動 Doubao-Seed-1.8(2025年12月發佈):輸入/輸出價格分別為 GPT-5.2 的 7% 和 8%。即使是大型模型,如百度 ERNIE-5.0(2.4T MoE 架構)和阿里 Qwen3-Max(1T MoE),其輸出定價也僅為 GPT-5.2 的 約24%在美國方面:Anthropic 的 Claude Opus 4.5 定價處於高端;Google 和 OpenAI 的模型略低,但仍顯著高於中國同類產品。(3)模型性能:中國開源模型正快速縮小與美國前沿模型的差距我們參考兩個“人工分析”(Artificial Analysis)指數,從綜合智能水平(涵蓋英語、程式碼、數學、智能體任務、工具使用等基準)和智能體能力(agentic capabilities)兩個維度對比中美模型。DeepSeek 在2025年12月發佈的 V3.2 論文指出:過去幾個月,Anthropic、Google 和 OpenAI 的閉源模型進步速度快於中國開源模型。當前,GPT-5.2(High)和 Claude Opus 4.5 仍在綜合智能和智能體任務上保持領先,而開源模型整體仍處追趕狀態。但值得注意的是,部分中國模型已在關鍵指標上追平甚至超越部分西方中端模型:Kimi-K2.5、GLM-4.7、DeepSeek V3.2、Qwen3 Max Thinking 和 MiniMax-M2.1 在“綜合智能指數”上已達到與 Claude Sonnet 4.5 相當的水平。在智能體能力方面,中國模型進步尤為顯著:Kimi-K2.5、GLM-4.7、DeepSeek V3.2 和小米的 MiMo-V2-Flash 均優於 Gemini 3 Pro 和 Claude Sonnet 4.5。具體亮點:GLM-4.7:作為智譜(Zhipu)最新基礎模型,在開源模型中智能體任務表現突出。智譜於2026年1月8日成為首家在港交所上市的中國生成式AI公司。DeepSeek V3.2 針對閉源模型的三大結構性劣勢進行了創新突破:計算成本與長上下文效率:提出 DeepSeek Sparse Attention (DSA) 結構,顯著降低注意力機制複雜度;複雜任務性能:在後訓練階段強化了強化學習(RL);智能體能力:開發了一套新型合成訓練流程,包含1,800+ 種不同環境和85,000+ 複雜提示,將推理能力深度融入工具呼叫場景。此外,DeepSeek 還發表論文提出 mHC 架構,以更高效的方式擴展訓練並提升性能。Kimi-K2.5:可自主協調多達 100 個 AI 子智能體協同工作,每個子智能體能獨立使用工具進行搜尋、生成、分析和資訊組織。MiMo-V2-Flash:小米推出的開源高速推理與智能體大模型,總參數量達 3090 億,啟動參數 150 億。MiMo LLM 團隊負責人羅富麗(Fuli Luo)曾是 DeepSeek V2 模型的核心貢獻者。(4)智能水平 vs 成本效率:中國模型在實現具競爭力的智能評分的同時,展現出顯著更優的成本效益。有人可能會指出,儘管中國模型定價大幅折扣,但開發者評估模型整體效率和經濟性時,執行具體任務的實際成本(即“token效率”) 才是關鍵。圖21對比了各模型在“智能指數”(Intelligence Index)得分與其運行測試所需成本之間的關係:GPT-5.2 雖然取得最高的智能評分,但其運行成本也是所有東西方模型中最昂貴的。若以 Grok 4 的智能指數作為東西方模型的中位基準,則西方模型中,Gemini 3 Pro、GPT-5.1 和 Claude Sonnet 4.5 表現出較好的成本效率——在相對較低的運行成本下實現了高於平均水平的智能表現。DeepSeek V3.2 同樣實現了高於平均水平的性能,但其運行成本極低:僅為 GPT-5.2 的約 3%,也僅相當於 Gemini 3 Pro 的約 9%。總體而言,中國模型普遍以遠低於西方同行的成本運行,在性價比方面具備明顯優勢。(5)Hugging Face 下載資料:另一個有價值的參考指標來自 Hugging Face——全球領先的開源AI與機器學習模型平台。根據最近一個月的下載資料顯示(見圖22):阿里巴巴的通義千問(Qwen)系列佔據了熱門下載榜單的主要份額;其餘上榜模型主要來自 OpenAI、Meta 和 Mistral。值得注意的是,榜單上的大多數模型均為輕量級模型(參數量通常低於100億),這很可能是出於本地部署的實用性、硬體資源限制以及性能與效率之間的權衡。阿里巴巴通過其豐富且多層次的開源Qwen模型矩陣(涵蓋數百種變體及衍生模型),有效滿足了開發者多樣化的應用需求。另一方面,DeepSeek R1 在 Hugging Face 上獲得了累計最多的點贊數(likes),顯示出其在開源社區中的極高人氣與認可度。3、算力層 / 資本支出(Compute Layer / Capex)在本節中,我們嘗試估算中國領先AI企業為滿足其推理(inference)所需的年度總Token使用量及相應的GPU叢集規模。我們採用自下而上的方法,將每家公司的Token使用劃分為以下三類:1)第一方應用推理(1P Application Inference):指各公司在其自有AI助手(如字節跳動的Doubao、騰訊的Yuanbao)以及高流量App內嵌AI功能(如微信和抖音中的AI搜尋)所產生的Token消耗。我們估計,目前1P應用推理構成了中國AI公司推理算力需求的主體。2)公有雲MaaS(Public Cloud MaaS, Model as a Service):反映面向第三方企業客戶的模型商業化,主要來自外部API呼叫(如阿里雲的“百煉”、字節火山引擎的AI服務)。儘管該業務增長迅速,但目前仍僅佔整體Token使用量的很小一部分。3)內部訓練(Internal Model Training):代表這些公司的“固定”計算成本,包括基礎模型預訓練、持續的後訓練(post-training)和微調所需的Token消耗。不過,由於峰值推理需求才是GPU採購決策的主要驅動因素,而內部訓練通常可錯峰進行,因此我們在後續GPU需求測算中不將其納入考量。1)第一方應用推理的算力需求在上述三類中,1P應用推理所需的算力最多,也是推動Token用量和GPU需求快速上升的核心驅動力。除DeepSeek外,中國主要AI玩家均為成熟的網際網路巨頭,它們不僅營運自有AI聊天機器人,還在旗下眾多移動與PC應用中廣泛部署AI功能,覆蓋電商、社交、內容、地圖等多個垂直場景。以騰訊為例:其移動端AI助手“元寶”(Yuanbao)截至2025年9月MAU達3300萬(QuestMobile資料);同時,騰訊在其旗艦應用微信(MAU超14億)中推出AI搜尋功能,已有超過1700萬使用者使用過該功能。為估算這些公司1P應用產生的總AI查詢量,我們做出以下關鍵假設:日活/月活比率(DAU/MAU,即日活滲透率):根據應用普及度不同,該比率約為20%至60%。應用規模越大、使用者體驗越好,使用者黏性越強,日活滲透率越高。例如,媒體曾報導Doubao在2024年12月DAU已突破1億,而其2025年9月MAU為1.72億,意味著其DAU/MAU比率可能已超過50%,接近60%。作為參照,Similarweb資料顯示,ChatGPT在2025年8月的DAU滲透率接近44%;同期DeepSeek的DAU滲透率約為20%,但此後很可能已顯著提升。每位日活使用者的日均互動強度:假設每位DAU每天使用移動或桌面App 3–4次,每次平均進行5輪對話,即每天產生15–20次查詢。參照Axios在2025年7月援引的資料:ChatGPT每日處理約25億次查詢,相當於每位DAU每天15–20次查詢,與我們的假設一致。市場格局:頭部效應顯著根據我們的分析,Doubao和DeepSeek無疑是中國最受歡迎的兩大AI模型系列,分別處理了全國約60%和25%的AI查詢總量。需要強調的是,由於相關公司披露資訊極為有限,上述結論基於大量估算假設,最終數值應僅作趨勢參考。但我們認為,這一結果精準反映了當前中國AI行業的基本動態:市場高度集中,頭部兩家玩家很可能佔據了絕大部分份額。我們估計,文字/語音類查詢佔總查詢量的絕大部分,並驅動約80%的Token消耗。儘管圖像生成僅佔總查詢量的1%–2%,卻貢獻了約15%的Token用量,這主要是因為AI圖像生成(通過擴散模型)單次所需Token量極大。例如,使用2×2的圖像塊(patch size)生成一張1024×1024解析度的圖像,並進行20步擴散採樣,大約需要8萬個Token——相當於一本220頁的書的文字量。在文字/語音查詢中,我們認為深度推理類查詢(reasoning queries)佔比已升至總查詢量的約30%,這得益於推理模型在速度和精準性上的持續提升。作為參考,據Zebracat分享的Perplexity AI使用者資料顯示,2025年有29%的查詢與學術或研究相關,可作為合理基準。這類推理查詢顯著推高了Token用量:單次推理查詢平均消耗約1萬個Token,而普通訊息類查詢僅需約2000個Token。僅1P應用推理就已催生對H20 GPU的巨大需求即使僅考慮第一方應用推理需求,各公司也亟需大量輝達H20 GPU,並正激進擴大資本開支。以字節跳動為例:為支撐其每年超7,100兆(7,100T)的Token處理量,我們的測算顯示,該公司至少需要超過37.3萬張H20 GPU,才能滿足高峰時段的算力需求。我們採用了200%的峰均流量比(peak-to-average ratio),以反映結構性流量波動——例如工作日白天或晚間使用者活躍高峰——這要求企業必須大規模超配GPU,以保障使用者體驗。這一估算可與《南華早報》(SCMP)的報導相互印證:該報導稱,字節跳動2025年GPU預算約為850億元人民幣(約120億美元)。若其將全部晶片預算用於採購H20(每台8卡伺服器成本約16萬美元,含機箱、網路及其他基礎設施),我們估計其2025年實際採購量約為30萬至40萬張H20。報導還指出,字節計畫在2026年將預算進一步提升至超1000億元人民幣(約140億美元)。阿里巴巴則承諾在未來三年(2025–2027財年)投入3800億元人民幣用於AI相關資本開支,超過其過去十年的總資本支出。騰訊方面,最初在2025財年初指引全年資本開支佔收入比例為“低兩位數區間”(low-teens%)。但到2025年11月,公司下調了指引,雖低於原區間,但仍高於2024年的12%。管理層強調,這一調整完全源於AI晶片供應變化,而非AI戰略或未來Token需求預期的改變。此外,騰訊透露,微信計畫未來在其小程序生態中推出內建AI智能體(agent),覆蓋電商、支付及廣泛網際網路場景。考慮到微信MAU已超14億,我們估算此舉可能帶來每年約2,000兆Token(2,000T)的新增消耗,進一步推高其資本開支需求。2)公有雲/MaaS市場格局目前,中國公有雲MaaS(模型即服務)市場由字節跳動、阿里巴巴和百度主導。根據IDC發佈的資料,2025年上半年,字節跳動按Token用量計佔據約50%的市場份額。字節在2024年中率先發起價格戰,將其面向企業的模型API定價大幅低於競爭對手。儘管其他廠商迅速跟進並匹配價格,但字節成功吸引了大量高頻、價格敏感型API客戶。相比之下,阿里巴巴聚焦於提供最完善的開源模型與整合化雲解決方案:其通義千問(Qwen)系列擁有數百種變體和衍生模型,在Hugging Face上下載量居首,充分滿足開發者多樣化需求;同時提供整合的雲服務,包括底層安全與合規基礎設施,特別適合金融、汽車等傳統行業企業客戶。因此,儘管阿里處理的Token量可能低於字節,但其單位Token產生的收入更高,商業模式更具價值密度。目前,中國的公有雲/MaaS(模型即服務)在整體Token消耗和算力使用中僅佔較小份額。根據我們的測算,其佔比約為10%出頭,遠低於第一方應用推理(1P App Inference)的消耗量。不過,這一比例因公司戰略重心不同而有所差異:字節跳動和騰訊更側重B2C業務,其Token使用高度集中於1P應用推理和內部用途。這一點可從騰訊管理層近期表態得到印證:“我們的GPU資源實際上已足夠滿足內部需求……但外部雲業務收入仍受某些限制因素制約。”相比之下,阿里巴巴和百度在MaaS市場處於領先地位,且自有消費級App流量相對較小,因此其算力分配更為均衡,B2B與B2C之間的比例更趨平衡。由於公有雲/MaaS整體規模有限,各公司為此所需的H20 GPU數量也明顯較少,每家大約僅需1萬至2萬張。3)內部訓練:受限於晶片供應,佔比被迫壓縮在中國當前的市場環境下,內部模型訓練所佔算力需求比例相對較小,主要原因如下:GPU供應嚴重受限:所有中國公司都無法按需採購H20晶片;資源分配面臨兩難抉擇:是將大量GPU用於訓練以提升模型能力,還是優先保障面向使用者或企業客戶的推理服務?在激烈的中國消費網際網路競爭中,“先搶使用者、再最佳化體驗” 的策略已被反覆驗證有效。因此,大多數公司選擇將稀缺算力優先用於推理服務,以贏得“使用者爭奪戰”,同時通過演算法最佳化、資料提純等方式,在有限晶片條件下持續改進模型。面對算力約束,中國企業正積極探索高效利用已有NVIDIA晶片的方式,包括:逐步將部分H20轉向訓練任務,並用國產AI ASIC晶片(如華為昇騰、崑崙芯等)替代其在推理場景中的角色;利用為高峰推理預留的冗餘算力,在非高峰時段執行微調(fine-tuning)、知識蒸餾(distillation)等輕量級訓練任務。據媒體報導,幾乎所有中國頭部AI公司目前已部署華為晶片,例如螞蟻集團已部署數萬張昇騰晶片。如果中國監管機構批准企業向輝達下單採購H200(該型號已獲美國政府許可對華銷售),企業有望以更低資本開支實現同等性能。具體而言:一台8卡H200伺服器成本約為H20伺服器的2倍;但其理論算力(FP8/INT8)可達H20的約6倍;因此,在不考慮實際運行中MFU(Model FLOPs Utilization)差異的情況下,實現相同性能所需資本支出可減少約20%。路透社近期報導稱,中國科技公司計畫在2026年訂購約200萬張H200。但據我們瞭解,這些訂單仍需經中國監管部門審批——當局正在評估各企業的實際需求,相關流程仍在進行中。4)綜合算力需求估算綜合1P應用推理、公有雲/MaaS及內部訓練需求,我們估算:騰訊、阿里、百度等頭部AI企業各自約需10萬張H20;字節跳動需求更高,可能接近40萬張H20(此估算尚未包含其內部編碼、行銷自動化、AI工具鏈等潛在用途——這些需求可能相當可觀,但極難量化)。值得注意的是,部分公司的內部AI使用可能實際佔更大比重。正如阿里和騰訊所透露,在晶片短缺背景下,它們正優先保障內部AI應用,這可能意味著未公開的Token消耗遠超外界預期。若形勢進一步惡化,這些公司可能被要求主要甚至全部採購國產晶片。這將帶來新的挑戰:中芯國際(SMIC)的7奈米製程產能仍有限,儘管其計畫在2026年大幅擴產,但產能爬坡需要時間,供應瓶頸在擴產完成後仍可能持續存在。如果企業能夠:獲得足夠數量的國產晶片(如華為昇騰910C),並解決系統與模型層面的相容性問題,那麼在某些場景下,從H20切換至昇騰910C甚至可能降低約10%的資本開支。四、2026年展望:Token用量與資本開支預測我們預計,2026年中國主要AI公司的總Token生成量將同比增長約117%,達到25,221兆(25,221T),主要驅動力來自:AI聊天機器人App的普及;超級App(如微信、抖音、支付寶)內嵌AI功能的廣泛採用。相應地,這些公司的H20相關資本開支合計將達到約285億美元;若計入伺服器機箱、網路裝置及其他配套基礎設施等非GPU支出(約佔AI總Capex的另一半),整體AI相關資本開支預計將達約540億美元。當然,這一估算可能偏保守——如果類似美國的智能體(agentic)在中國快速流行,或對輝達晶片的採購限制有所放鬆,實際需求可能遠超預期。為何我們的Capex估算低於公司指引?投資者可能會注意到:即便在我們對使用者增長和使用強度做出樂觀假設的前提下,我們對阿里和騰訊2026年H20相關Capex的估算仍顯著低於公司官方指引或媒體報導的內部目標:阿里管理層指引未來三年AI Capex為3800億元人民幣(約合每年180億美元);騰訊2025年Capex佔收入“低兩位數百分比”,若2026年維持相同比例,按其收入規模推算,年Capex約為140億美元;《南華早報》亦報導稱,字節跳動2026年GPU預算將超1000億元人民幣(約140億美元)。這一差距主要可歸因於以下四點:1)公司整體Capex包含大量非GPU支出:GPU僅佔AI總Capex的一半左右,其餘用於伺服器機箱、高速網路、冷卻系統、資料中心建設等配套基礎設施。2)需疊加歷史基線Capex:公司披露的Capex目標包含其傳統業務(如遊戲、廣告、電商)所需的常規IT投入,並非全部用於AI。3)大量算力用於內部非AI大模型業務:企業還需為軟體開發、推薦系統、廣告平台、內容稽核、合規與法務等內部系統分配GPU資源,這些同樣產生可觀Capex。4)前瞻性投資策略:公司預期未來幾年AI需求將爆發式增長,因此選擇提前大規模投入,以搶佔生態位和人才。經上述因素調整後(見圖35),我們的測算結果與各公司Capex指引區間基本吻合。我們清楚地看到,中國企業在AI資本開支(Capex)方面明顯落後於美國同行。根據我們此前的估算及公司指引,中國四大領先AI企業(阿里、騰訊、字節、百度)——合計AI相關資本開支僅相當於彭博共識預測的2025年美國五大超大規模雲服務商(Meta、微軟、亞馬遜、Google、甲骨文)。而據彭博共識預計,這些美國雲巨頭在2026年還將同比再增加約50%的資本開支。造成這一差距的原因是多方面的:1)晶片供應受限:中國公司常常面臨硬體(尤其是高端AI晶片)供應瓶頸,即使預期業務將快速增長,也難以提前大量採購庫存,從而制約了資本支出規模。2)使用者基數與全球化程度差異顯著:美國企業服務的是全球使用者,使用者規模遠超中國公司。例如,《The Information》報導稱,ChatGPT近90%的使用者位於美國以外;其他媒體資料顯示,Google Gemini約87.5%的流量來自國際市場。相比之下,中國AI聊天機器人及App內嵌AI功能的使用者幾乎全部集中於境內,海外滲透率極低。3)使用者行為存在本質差異:美國使用者普遍將AI工具深度融入PC端日常工作流,頻繁發起複雜、高Token消耗的推理型查詢(如程式設計、研究、文件生成等),推動Token用量大幅攀升;中國使用者則主要通過移動端使用AI,多用於簡單任務(如問答、搜尋、娛樂),單次互動Token消耗較低,整體使用強度和複雜度不及西方。綜上,供給約束、市場邊界侷限以及使用模式差異共同導致中國AI生態在資本投入和算力消耗規模上與美國存在顯著差距。這一差距不僅體現在當前支出水平,也可能影響未來技術迭代與生態競爭力的長期格局。 (衛斯李的投研筆記)
OpenAI、Anthropic、Google“三國殺”,微軟“悶聲發財”丨a16z最新報告
矽谷知名風投a16z近日發佈了對全球2000強企業中100家公司CIO進行的第三屆年度調查報告,揭示了企業級AI競賽的幾個關鍵話題:市場正加速形成寡頭格局、企業支出繼續加速。報告的核心發現指出,OpenAI目前依然是明確的市場領導者,78%的受訪企業CIO正在使用其技術,但追趕者的勢頭非常兇猛,特別是Anthropic,其企業滲透率在短時間內實現了顯著增長。然而,在企業級應用的實戰中,真正的贏家是微軟。矽谷大佬的企業AI牌桌,圖片由AI生成憑藉Microsoft 365 Copilot和GitHub Copilot等深度嵌入企業工作流程的產品,以及企業客戶對信任、整合和採購便利性的天然偏好,微軟佔據了顯著優勢。與此同時,企業正在用真金白銀持續加大投入。資料顯示,企業在AI大模型上的平均支出在過去兩年快速增長,並預計今年將繼續大幅增加。以下為a16z報告的四大核心發現:01 模型之爭:OpenAI領跑,Anthropic和Google猛追企業AI模型,OpenAI依然是無法繞過的名字。根據調查,高達78%的受訪企業CIO正在生產環境中使用OpenAI的模型。但市場絕非一成不變,變局正在發生,勢頭最猛的挑戰者來自Anthropic。資料顯示,自2025年5月以來,Anthropic的企業滲透率猛增了25%,是增長最快的玩家。現在,44%的企業已在生產中使用其模型,若算上測試環境,這個比例超過了63%。就連企業錢包份額(預算分配)也在講述同樣的故事:OpenAI雖仍佔約56%的多數,但其份額正被Anthropic和GoogleGemini穩步侵蝕。受訪者普遍預計,這一趨勢在2026年還將延續。簡單來說,一個由OpenAI、Anthropic和Google構成的“三國殺”寡頭格局正在形成。這三家公司都在高速增長,共同瓜分著不斷做大的蛋糕,但彼此間的份額爭奪戰已“硝煙瀰漫”。02 應用落地:微軟成為“沉默的贏家”當輿論場熱衷於討論OpenAI與Anthropic的模型對決時,調查資料卻指向了一個被很多人忽視的“意外贏家”——微軟。資料顯示,全球2000強企業的大部分AI應用,依然通過微軟這樣的現有巨頭落地。微軟旗下的產品,如Microsoft 365 Copilot在企業聊天場景領先,GitHub Copilot在企業編碼領域佔據統治地位。企業選擇它們,並非單純因為技術最前沿,而是出於更現實的考量。65%的受訪企業明確表示,他們更傾向於選擇像微軟這樣的現有解決方案,理由高度一致:信任、與現有系統的無縫整合,以及採購流程的簡便。這說明,在企業級市場,“好用、省心、能整合”的實用主義,常常比“最新、最炫”的技術光環更有份量。不過,報告也指出,這並不意味著初創公司沒有機會。企業同樣渴望更快的創新和更靈活的AI原生解決方案,這為挑戰者們留下了突破口。03 “應用末日論”被誇大關於企業是應該自建AI能力,還是直接採購應用,一直爭論不休。一種流行的觀點認為,隨著基礎模型能力增強,第三方應用將失去生存空間。但a16z的調查報告發現,這種“應用末日論”被嚴重誇大了。軟體開發、法律等領域,第三方應用仍佔據絕對優勢,並未失去生存空間,企業採用正持續增長事實恰恰相反,資料顯示企業正持續轉向採購第三方應用,即使在知識管理、工作流自動化這些傳統上傾向於自研的領域,許多企業也計畫從“自己動手”轉向購買成熟的打包方案。背後的邏輯在於,成熟的第三方應用能提供企業自身難以快速建構的深度場景化能力,並能通過智能調度不同模型的優勢,為企業帶來更實際的業務成果。這場“自研”與“採購”的競賽,遠未到終局。04 支出真相:企業掏錢速度比預期快得多最能直接反映AI市場熱度的,莫過於企業掏出的真金白銀。這份調查最核心的發現之一,就是市場的實際增速遠超所有人預期,包括身處其中的企業和供應商自己。具體來看,過去兩年,企業在AI大模型上的平均支出已從約450萬美元飆升至約700萬美元。而他們對今年的預算更為激進,預計將再增長約65%,達到平均約1160萬美元。企業在AI應用上的支出同樣遵循這一軌跡,實際花費遠超預算。企業預計平均支出約390萬美元,但實際上支出了近600萬美元。這些數字表明,企業級AI已不再是“試水”項目,而是進入了規模化、常態化投入的快車道,需求的強度和持久力,證明了這並非曇花一現的熱潮。 (騰訊科技)
一個被輝達掩蓋的、中美AI最殘酷的物理真相……
在過去兩年裡,當我們在談論中美AI差距時,由於Nvidia GPU的顯性存在,我們幾乎把所有的目光都聚焦在了“算力鴻溝”上:因為製程封鎖,由於H100/H800的禁售,中國AI”似乎“被卡住了脖子。然而,就在所有人的眼睛都盯著矽(Silicon)的時候,大洋彼岸的華爾街和矽谷巨頭們,卻開始因為電子(Electrons)而焦慮。微軟CEO薩提亞·納德拉(Satya Nadella)在上一季的財報電話會議上,以及馬斯克在最近的長達3小時的《Moonshots》對話中,幾乎是明著說了:顯示卡不再是唯一的瓶頸,真正的瓶頸正在變成吉瓦(GW)等級的電力和帶電的資料中心。但在這個層面,也就是AI的基礎物理層,電力供應上,中美正面臨著完全相反的兩種“絕境”——美國面臨嚴重“缺電”危機,而中國卻擁有20倍的冗餘!但中國即便電費便宜,AI算力的能源成本卻可能比美國高出40%?這到底是怎麼回事呢?01. 美國需要一場AI曼哈頓計畫讓我們先看一組資料,這組資料來自麥格理(Macquarie)最新的估算:到2030年,中國AI發展所需要的電力增量,僅相當於過去五年中國新增發電能力的1%到5%。而在同一時期,美國AI發展所需要的電力增量,將佔據其過去五年新增發電能力的50%到70%。麥肯錫的最新預測更是表明,到2030,美國資料中心電力需求將翻兩番,達到80-100吉瓦(GW)請細品一下這組對比資料。如果你品出來了,就知道,中國在過去五年裡,為了這個AI時代提前儲備了近乎20倍於AI實際需求的電力冗餘。中國的電網,就像是一個蓄滿水的巨型水庫,AI這條“大魚”游進去,水位線幾乎紋絲不動。反觀美國,它的電網建設速度不僅緩慢,而且面臨著巨大的存量替換壓力。如果要把AI這個新的巨獸塞進美國的電網系統,它將一口吞掉整個國家未來幾年新增電力的大半壁江山。2023年,美國全年新增發電裝機容量約為51 GW(吉瓦)。同年,中國新增發電裝機容量達到了驚人的429 GW。8倍的差距。這是一個物理世界的降維打擊。所以當OpenAI的Sam Altman在四處遊說,聲稱需要7兆美元來重構晶片產業鏈時,他其實更應該擔心的是,即便有了晶片,他在美國那裡能找到足夠的電把它們跑起來?在美國弗吉尼亞州的“資料中心走廊”,電力公司Dominion Energy已經無數次發出警告,由於輸電瓶頸,他們可能無法及時為新的資料中心供電。而同樣的故事,正在全美各地重演。變壓器短缺、環保審批流程(NEPA)長達數年的拖延、老舊電網的各種物理限制,正在成為美國AI頭頂的“天花板”。但,中國已經“解決”了近期的AI電力供應問題。如果你是一個在中國做AI基礎設施的創業者,你可能還在為拿不到H100而頭疼,但你絕不會像你的美國同行那樣,因為申請不到市電擴容指標,而不得不去考慮自建核反應堆。02. 那怕電費為零中國AI的成本依然可能更高讀到這裡,我們中國的讀者可能會覺得:穩了。既然電力是AI的血液,而中國擁有龐大的造血能力,那我們在AI競賽中豈不是佔據了絕對的地利?且慢。這裡有一個巨大的“但是”。中國有電,但是,“電怎麼轉化成算力”(Efficiency)。這就要回到半導體物理學的基本常識。目前,美國頂級AI晶片(如Nvidia的B200/GB200)採用的是台積電最先進的4nm甚至3nm工藝。而受限於製程封鎖,中國的主流國產AI晶片不得不停留在7nm或更成熟的工藝節點上。製程落後不僅僅意味著單卡算力(FLOPs)的差距,更意味著能效比(Performance per Watt)的巨大鴻溝。在微觀層面,電晶體越小,驅動它所需的電壓越低,漏電率控制越好。反之,為了在落後製程上堆出同樣的算力,工程師必須堆疊更多的電晶體、拉高頻率、忍受更高的發熱。Weijin Research做了一個場景模擬:對比華為的CloudMatrix叢集(基於國產晶片)與Nvidia的GB200叢集。即便在最理想的最佳化下,要在同樣的算力輸出(FLOPs)上對標輝達,國產系統消耗的能源可能要高出100%甚至更多。這是一個非常可怕的乘數效應。一套完整的CloudMatrix系統可以提供Nvidia的GB200接近2倍的計算能力,但功耗是其4.1倍讓我們算一筆帳:假設美國的工業用電平均成本是每千瓦時0.12美元,而中國依靠強大的煤電和新能源優勢,將成本壓到了0.08美元(便宜33%)。但是,如果國產晶片跑同樣的模型需要消耗2.5倍的電力(能效比落後),那麼最終每生成一個Token,或者每訓練一個參數,中國的電力成本實際上是美國的140%。這就是“效率黑洞”。即使我們的電網裡流淌著世界上最充沛、最廉價的電子,但由於終端轉換裝置(晶片)的能效瓶頸,這些電子在轉化為智能的過程中,被大量的熱損耗浪費掉了。這就解釋了為什麼華為等中國巨頭在最新的技術白皮書中,瘋狂強調“液冷”、“系統級能效”、“叢集最佳化”。因為在單點物理能效無法突破製程天花板的情況下,必須通過系統工程(System Engineering)來補課。液冷 CDU,核心作用是 安全、精準、高效地將冷卻液輸送到伺服器晶片,並回收熱量但散熱也是物理限制。當一個機櫃的功率密度從10kW飆升到100kW甚至更高時,傳統的風冷徹底失效,資料中心必須進行傷筋動骨的液冷改造。這對於基礎設施的營運能力提出了地獄級的挑戰。03. 電網設計正在成為新的核心國力如果我們跳出單純的“晶片卡脖子”敘事,站在更高的維度——能源與計算的共生(Energy-Compute Symbiosis)來看待這場博弈,你就會發現:電力、電網設計和計算效率,正在成為AI時代的核心國家能力(Core National Capabilities)。我們先來看美國的策略面對陳舊的大電網,美國科技巨頭正在試圖“繞過”電網。亞馬遜買下了核電站旁邊的資料中心,直接取電。微軟和OpenAI正在投資核聚變和小型模組化反應堆(SMRs)。Google正在探索地熱供電。SMRs產生的熱量可用於燒開水、產生蒸汽、驅動渦輪機和發電機,從而在火力發電廠中發電這是一場“去中心化”的自救運動。美國正在倒逼其能源技術創新,試圖用技術突破來彌補基建的虧欠。如果SMR(小型核堆)技術一旦成熟,美國將解決算力能源的“最後一公里”問題。美國策略的關鍵詞是:分佈式突圍與核能復興中國這邊則在打一場完全不同的仗。我們擁有世界領先的特高壓(UHV)輸電技術,能夠將西部(甘肅、內蒙、四川)過剩的風光水電,跨越數千公里輸送到東部的算力中心,或者直接在西部建設“東數西算”基地。但這還不夠。中國的真正野心在於將AI嵌入到能源系統本身。比如,華為不僅僅在賣晶片,它在賣“數字能源”解決方案,把太陽能逆變器、儲能系統和資料中心溫控做成了一體化。寧德時代正在把電池塞進資料中心,作為UPS(不間斷電源)和削峰填谷的神器。比亞迪正在建構從太陽能板到儲能電站的閉環。華為的資料中心和能源基礎設施建設解決方案這是一種“全端式”的打法。中國正在試圖用極其強大的宏觀能源調度能力(Macro Energy Management),去避險微觀晶片能效(Micro Chip Efficiency)的不足。既然我的晶片費電,那我就把電變得更便宜、更穩定、更易得。用物理世界的“大力”,去出奇蹟。我們這裡的關鍵詞是:系統級碾壓與特高壓輸送04. 終局文章的最後,我們需要看到一個更深遠的趨勢。“當全世界都需要AI時,誰能提供‘交鑰匙’方案?”想像一下,未來一個開發中國家(比如沙烏地阿拉伯、巴西或東南亞國家)想要建設自己的主權AI。他們面臨兩個選擇:選項A(美國模式):花費巨資購買Nvidia的H200晶片(如果美國商務部批准的話),然後自己解決頭疼的電力供應問題,自己去搞定電網擴容,自己去建設昂貴的液冷設施。這對於很多基建薄弱的國家來說,是不可承受之重。選項B(中國模式):中國公司提供一套“交鑰匙”方案(Turnkey Solution)。我不只賣給你AI伺服器(雖然能效稍差一點,但也能用),我還打包賣給你配套的:一片GW等級的太陽能電站;一套巨型的儲能電池系統;一套全液冷的資料中心基礎設施;甚至是特高壓輸電網路。這不僅僅是賣鏟子,這是把“礦山”和“運礦車”一起打包賣了。在“一帶一路”沿線,這種“綠色能源+數字基建”的組合拳,正展現出極強的競爭力。美國或許在晶片的最尖端擁有無可比擬的統治力,但中國正在掌握“將算力落地為物理現實”的完整產業鏈。中國提議在全球範圍內建構AI驅動的衛星巨型網路,惠及所有人回到文章開頭,AI的戰爭絕不僅僅發生在幾奈米的微觀世界裡,同樣發生在高聳的輸電塔、連綿的太陽能板和轟鳴的變壓器之間。美國焦慮的是“無米下鍋”——有最好的爐子(晶片),但缺柴火(電力)。中國焦慮的是“柴火利用率”——有堆積如山的柴火,但爐子的熱效率不夠高。這兩種焦慮,將塑造未來十年兩個超級大國的科技樹走向。值得注意的是,對於中國的產業界而言,不要因為我們在電力基建上的巨大優勢而沾沾自喜,從而忽視了晶片能效落後帶來的長期成本黑洞;但也絕不要妄自菲薄,因為在即將到來的“能源算力時代”,我們有牌可打。遊戲,才剛剛開始。 (TOP創新區研究院)
DeepMind CEO 在 CNBC 算 4 筆帳:這輪 AI 競賽,錢到底花在那?
最近 AI 圈最熱的詞,已經不是更強,而是更賺錢。2026 年 1 月 16 日,CNBC 新上線了一檔播客《The Tech Download》,定位很明確:不談概念,只談錢。第一期請到的嘉賓,是 Google DeepMind 的 CEO Demis Hassabis。Hassabis 沒有談技術概念,而是在算四筆投資帳:AGI 缺的能力,該投什麼模型商業化,成本花在那能源瓶頸,資源配在那AI 競爭,優勢建在那這四筆帳,指向同一個核心:這輪 AI 競賽,錢到底該花在那?第一筆帳|AGI 還缺什麼能力?專訪剛開始,主持人問出一個所有人都關心的問題:我們的大模型已經這麼強了,還能更好嗎?AGI 是不是快到了?Hassabis 的回答是:大模型的能力,其實有明顯短板。他說,這些 AI 工具在某些問題上能給出驚豔的表現,但你換個問法,或者稍微複雜一點,它立刻就不行了。他把這叫做:參差不齊的智能(jagged intelligences)。說白了,這種智能還不夠靠譜。能答題,但不能舉一反三;能寫論文,但不能自己提一個真正新的點子。1、通用智能,得能自己提問題Hassabis 認為,真正的通用 AI,必須具備一項能力:能自己提出問題,能假設世界可能如何運轉,然後想辦法去驗證它。也就是說,它不能只是答你問題,還得能自己思考問題是什麼。他說,現在的大模型,連持續學習都做不到。你教會它一件新事,它很快就忘了;它不會像人一樣積累經驗。這也是為什麼,DeepMind 近兩年開始把重點從 LLM 轉向另一個方向:做一個懂得世界如何運轉的 AI。2、世界模型,不是懂語言,是能想像他用很通俗的方式講了世界模型這個概念:“就像人類科學家,能在腦海中推演如果這樣,那會發生什麼,AI 也得具備這種能力。”不是理解你說什麼,而是能根據它自己對世界的認識,去預測接下來會發生什麼、什麼東西會影響什麼結果。這聽起來有點抽象,但它已經落地到了 DeepMind 的幾個核心方向裡:Genie: 能與虛擬環境互動的模型,相當於在玩遊戲的同時理解規則AlphaFold: 當年用 AI 去預測蛋白質折疊結構,其實也是讓模型理解形狀為什麼會變成那樣Veo: 文字生成視訊,不是湊鏡頭,而是讓 AI 根據因果關係決定下一秒畫面該變成什麼這些看起來不一樣的項目,其實在做同一件事:讓 AI 像人一樣理解世界,而不是只會背答案。3、AGI 不靠湧現,靠組合Hassabis 相信:單純擴大模型規模,不會自動產生通用智能。真正有可能做出 AGI 的,是讓多個模型各司其職、協同工作:LLM 負責語言和基礎理解視訊模型負責時間序列、物理直覺世界模型提供模擬、推理、預測的能力只有這些能力拚圖逐步接上,通用智能才會是可靠的,而不是看起來聰明但漏洞百出。對大多數人來說,AGI 是比人更聰明的 AI;但對 Hassabis 來說,AGI 是能自己提出新想法的 AI。這就是 DeepMind 把世界模型當成下一步主線的原因。它不只是一個新模型,而是一個核心能力:能不能站在世界的角度去理解,而不是被動回答。第二筆帳|模型怎麼賺錢?不是更強,是更划算技術路線是一回事,但商業落地是另一回事。AI 要走向通用,不只是越來越聰明,還要用得起。Demis Hassabis 講了 DeepMind 的產品策略:不是只推 Pro 版,而是同時做 Flash 版。這不是大小模型的高低之分,而是為了讓更多場景能用得起。能大規模部署、覆蓋場景的模型,必須夠輕、夠快、夠省。1、Flash:用強模型教出主力模型Hassabis 形容:用最強的模型訓練出一個更高效的版本,就像用大腦教出一個更靈巧的分身。這個過程在技術上叫蒸餾,但他更關注的不是技術本身,而是能否落地:訓練出來的模型可以被廣泛部署,成為主力使用的版本。比如 Gemini 模型線:Pro 版本,是給複雜場景或前沿應用準備的Flash 版本,是給終端使用者、高頻任務提供服務的2、商業化不是賣模型,而是讓模型進產品“AI 不該永遠停在網頁對話方塊裡。”Hassabis 說:未來我最看好的方向之一,是讓 AI 真正進入手機、眼鏡這些裝置裡。也就是說,未來不是你去找 AI,而是 AI 就在你手邊、螢幕裡、日常動作之間。DeepMind 已經和三星、Warby Parker 等品牌展開合作,探索裝置端 AI 的可行性。這說明 DeepMind 的商業路線,不只是 API 售賣,更看重模型與產品深度結合。3、AI 不止省人力,還要省資源Hassabis 說,效率是 Gemini 全線設計時的最高優先順序,尤其是 Flash 系列。推理更快能力更平衡能耗更低DeepMind 對 AI 商業化的看法不是卷功能,而是算總成本:一個模型能做什麼不重要,重要的是它能成本可控、能落地、穩定可靠。從 Flash 的設計、蒸餾策略,到裝置端合作、能效優先,Hassabis 給出的不是模型路線圖,而是使用路線圖。他沒有強調模型有多強,而是圍繞:怎麼讓 AI 被真正用起來?這才是商業化起步的基礎。第三筆帳|能源問題,AI 能自己解決嗎?Flash 版本解決的是模型本身的能耗,但這還不夠。Demis Hassabis 明確表示:隨著我們走向 AGI,能源將等同於智能。智能越強,耗電越大。這是繞不開的物理規律。1、AI 不缺模型,最缺的是電不夠晶片永遠不夠。Hassabis 直言,即使 Google 有自己的 TPU 系列和 GPU,全球的計算晶片仍然供不應求。追根溯源,真正的瓶頸是能源:GPU 再多,也要靠電運行資料中心再大,也受限於電力供應模型再強,如果成本壓不下來,也只能停留在實驗室這不只是 Google 的問題,而是整個行業的天花板。當每家公司都在競相擴大算力、訓練更強的模型時,能源供應能不能跟上,決定了誰能真正把 AGI 從實驗室帶到現實世界。而這一點,正在成為 AGI 能否大規模應用的關鍵障礙。2、DeepMind 另一個野心:用 AI 去找能源如果 AGI 需要海量能源,那就讓 AI 自己去解決。DeepMind 的策略分兩個方向。開源:生產新能源與美國 Commonwealth Fusion 公司合作,用 AI 控制核聚變反應堆中的電漿體。核聚變一旦實現,將提供幾乎無限的清潔能源。Hassabis 的個人項目:能不能靠 AI 找出室溫超導材料。如果成功,將徹底改變電力傳輸和儲存方式。重新設計太陽能材料,大幅提升能源轉化率。節流:提高能源效率最佳化電網、資料中心、能源系統的運行效率,減少浪費尋找降低能耗的新型晶體結構幫工業最佳化生產路徑,減少不必要的能源消耗AI 不只會消耗資源,它也可以反過來推高資源效率。這不是第一次。從 AlphaFold 預測蛋白質結構,到現在尋找能源突破,Hassabis 始終相信:AI 是科學發現的終極工具。當每家公司、每個企業都要部署自己的大模型,競爭的關鍵變了:誰能讓AI更省電,誰就能部署更大規模誰能把每度電用得更值,誰就能活得更久最終,智能不是在比聰明,而是在比划算。能源供應能不能跟上,決定了這場技術升級能走多遠。而 DeepMind 的答案是:讓 AI 自己去解決能源問題。第四筆帳|競爭的關鍵:整合、部署、活下來技術路線之外,還有競爭格局。過去幾年,OpenAI 在消費端領先。憑藉 ChatGPT,迅速繫結微軟,推出 API、外掛、GPTs 商店。Google 顯得慢了半拍。但 2025 年底,風向變了。Gemini 3 上線時,同步進入 Google 搜尋、Android系統、Gmail、Workspace……全線鋪開。Hassabis 透露:過去兩三年,他做的最大變化不是研發方向,而是內部整合。1、DeepMind :從研究所到引擎室過去三年,Hassabis 只專注一件事:把 Google Research、Google Brain、DeepMind 三支團隊整合成一個 Google DeepMind。這不只是團隊整合,還包括重建Google的整個 AI 基礎設施。整合的結果:所有 AI 技術由 DeepMind 統一開發技術完成後,直接擴散到Google所有產品中Hassabis 與 Sundar Pichai(Google CEO)幾乎每天對話,決定技術方向和產品配置過去是三個團隊分頭做 AI,路線重疊、資源分散。現在是一個引擎室,統一調度。更關鍵的是速度。 Hassabis 說,他們每天調整路線圖和計畫。這不是大公司的穩健打法,而是初創團隊的衝刺節奏。目標只有一個:快速且安全地實現 AGI。Google AI 產品發佈效率實現了質的提升。2、模型強,部署要更快為了實現快速部署,DeepMind 建立了一個“骨幹網”,讓 AI 技術能夠快速擴散到Google所有產品中。Hassabis 把 Gemini 3 的發佈節奏形容為同步投放:模型訓練完成,第二天就能上線到搜尋、Gmail、Workspace不用二次改造,不用跨團隊溝通,一步到位這在以前是做不到的。Hassabis 說,他們在 Gemini 2.5 時才真正進入這個狀態。在此之前,模型和產品之間還有大量銜接工作。這種效率來自兩個優勢:第一,DeepMind 掌握從晶片到模型的完整技術堆疊。技術自主,不用等外部配合。第二,Google 的產品矩陣本身就是現成平台。搜尋、Android、Chrome、YouTube……AI 能力可以立刻接入,同步推送到數十億使用者。當 OpenAI 還在一個個談合作時,Google 已經完成了部署。Hassabis 說,接下來 12 個月,AI 能力會擴散到更多 Google 產品中。3、中國AI,落後幾個月意味著什麼談到中國的 AI 發展時,Hassabis 認為:中國領先實驗室,可能只落後幾個月。這意味著:在訓練效率、模型能力、部署速度上,差距正在快速縮小。DeepSeek 的低成本訓練方案、阿里巴巴的開源模型,都展示了中國團隊的工程能力和追趕速度。同時,Hassabis 也指出了下一個階段的關鍵:從復現技術到原創突破。他認為,發明一個新技術的難度,可能是復現它的100倍。中國實驗室已經證明了復現能力,接下來的問題是:能不能像當年發明Transformer那樣,創造出新的架構或方法?這不只是對中國的問題,也是對所有 AI 實驗室的挑戰。對所有想贏的 AI 玩家,Hassabis 指出:不是誰發佈得多,而是誰能讓產品真正跑起來不是誰融資多,而是誰能在泡沫之後還活著OpenAI 壓力很大,Anthropic 產品也很快,中國模型確實在追。但 DeepMind 的打法不是分散應對,而是整合優勢:統一的產品線、自有的平台、一步到位的部署。在 AI 這場長跑裡,活下來比跑得快更重要。結語|這輪 AI 競賽,錢該花在那四個地方Demis Hassabis 給出了四個方向:技術上,投資能理解世界、提出新想法的能力,不要只堆資料商業上,投資模型的部署效率,而不只是追求性能資源上,投資能源技術和能效最佳化,智能規模取決於每瓦電的價值競爭上,投資整合能力和產品閉環,而不只是發佈速度這四筆帳,DeepMind 給出了自己的答案。其他玩家怎麼選,決定了他們能走多遠。 (AI深度研究員)
資料中心背後民怨沸騰,微軟給馬斯克上了一課
在這波AI軍備競賽中,美國科技巨頭們爭先投入巨資,在各地興建動輒百億美元的資料中心。但與此同時,圍繞著資料中心所需規模龐大的電力與水資源,科技巨頭與社區民生之間的矛盾也在逐漸顯現,引發了當地居民的不滿與抵制。現在微軟交出了一個標準答案,展示了科技巨頭應該怎樣負責任地打造資料中心,實現科技創新與民生就業之間的雙贏。這一波,馬斯克跟不跟?不要補貼不要退稅昨天,微軟總裁布萊德·史密斯(Brad Smith)正式發佈了名為“社區優先AI基礎設施”的計畫,提出在興建資料中心時拒絕電力補貼,減少用水,不要退稅,解決就業,反饋社區等五點承諾。該計畫旨在讓微軟成為社區的“好鄰居”,確保AI基礎設施發展帶來的益處大於成本,並惠及當地居民。這家科技巨頭承諾,未來在建設和營運資料中心時,將確保:不會提高當地居民的電價,主動承擔因資料中心產生的額外電力成本,拒絕當地電價補貼;通過高效冷卻技術,儘可能減少用水量,投資當地水利系統,回饋比使用量更多的水資源;為當地居民切實創造就業機會;為當地醫院、學校、公園和圖書館增加稅收基礎,拒絕任何招商稅收減免;通過投資當地AI培訓和非營利組織來加強社區建設。史密斯在聲明中坦承:”事實是,只有當社區認為收益大於成本時,基礎設施建設才會推進。而我們正處於一個人們有很多顧慮的時刻。"他列舉了公眾對資料中心的擔憂:”他們擔心電價上漲,擔心影響他們的供水。他們看著這項技術,問它對未來的工作意味著什麼?對今天工作的成年人意味著什麼?對他們的孩子意味著什麼?"重要的是,微軟在幾個具體地區已經開始踐行這些承諾。在亞利桑那州,微軟與市政當局合作尋找和修復管道洩漏,幫助社區減少淡水損失。該公司還在該州和威斯康星州芒特普萊森特的資料中心試點閉環冷卻系統,有效地將水消耗降至零。微軟表示,將使零水冷卻成為其自有投資組合中的”主要冷卻方法"。微軟的承諾得到了美國總統的點贊。川普在社交媒體和公開場合表態稱,他不希望美國民眾為大型科技公司資料中心的電費上升埋單,強調科技巨頭應該為自身的能源消耗“買單”,而微軟是第一個響應號召的科技巨頭。微軟此舉在美國科技界引發了廣泛熱議。因為它觸及了一個日益嚴峻的社會問題:在AI軍備競賽的大環境下,科技巨頭們正在全美乃至全球範圍內大舉建設資料中心,但這些龐大的設施卻沒有給當地居民帶來相應的經濟收益,反而給社區民生帶來了沉重的資源負擔。資料中心熱潮下的社區困境要理解微軟為何做出這樣的承諾,需要先瞭解資料中心興建熱潮下,美國各地社區正在經歷的困境。美國科技巨頭正在進行史無前例的資料中心競賽,投資規模遠超此前預期。2025年,微軟、亞馬遜、Google和Meta四大巨頭的資本支出總額預計將高達4000億美元,其中四分之三直接用於AI基礎設施建設。而且這場軍備競賽還在加碼升級。根據CreditSights預測,五大超大規模雲服務商(加上甲骨文)今年總資本支出將超過6000億美元,較去年增長36%,較前年增長135%。高盛預計,從2025年到2027年,超大規模雲服務商的累計資本支出將達到1.15兆美元,是2022-2024年間的2.4倍。這種前所未有的投資規模已接近資本密集度的歷史極限。但另一方面,資料中心的電力消耗也以驚人速度增長,對美國能源系統構成前所未有的挑戰。根據國際能源署(IEA)和美國能源部勞倫斯伯克利國家實驗室的最新研究,2024年美國資料中心的總耗電量約為183太瓦時,佔全國總用電量的4.4%。隨著這波資料中心投資熱潮,預計2026年美國資料中心耗電量將超過250太瓦時,2030年更將達到400-426太瓦時,佔美國總用電量的6.7-12%。美國能源資訊署的報告預計,資料中心用電負載增長在過去十年中增長了兩倍,預計到2028年將再翻一番甚至兩番。在資料中心大幅推高電力需求的同時,美國的發電量增長卻並沒有顯著增長,這就帶來了潛在的居民用電危機。更令人擔憂的是電價的飆升。彭博社去年9月統計,在資料中心密集的地區,批發電價在五年內上漲了高達267%。而在全美範圍內,居民電費在2025年比前一年上漲了13%。美國國會議員去年12月致信七家科技公司,指責它們將數十億美元的基礎設施升級成本轉嫁給普通美國人。信中寫道:"我們寫這封信是因為有令人震驚的報導稱,科技公司正在將建設和營運資料中心的成本轉嫁給普通美國人,因為AI資料中心的能源使用導致附近社區的居民電費飆升。"水資源的消耗同樣令人憂慮。勞倫斯伯克利國家實驗室估計,2023年美國資料中心用於冷卻的水量達到6440萬噸,預計到2028年這一數字可能翻倍甚至翻兩番,達到1.29-2.58億噸。而用於發電的間接用水量更是高達7.99億噸,是直接用水量的12倍。休斯頓大學的研究發現,德克薩斯州的資料中心去年的耗水量可能高達1.85億噸,到2030年可能增至15.1億噸——這相當於將美國最大的水庫米德湖的水位在一年內降低5米以上。更令社區居民失望的是就業前景。雖然資料中心在建設期能創造大量建築工作崗位,但一旦投入營運,所需的長期員工數量極為有限。一個典型的大型資料中心可能只需要50到100名全職員工。亞利桑那州的殘酷現實美國亞利桑那州的情況最能說明問題的嚴峻性。鳳凰城地區因為相對寬鬆的環境和勞動政策、較低的電價、稅收優惠以及位於德克薩斯到南加州的主要光纖管道上等優勢,部署著約707兆瓦的IT容量,成為各大巨頭興建資料中心的首選之地。微軟、Google和Meta等公司都在該地區建有資料中心。然而,就在這些科技巨頭大量消耗資源的同時,附近幾十公里外納瓦霍保留地上的許多原住民卻仍然生活在沒有電力供應的環境中。《華盛頓郵報》一篇報導講述了亞利桑那資料中心附近的居民故事。原住民保留地卡梅倫(Cameron)是美國最大的無電力地區之一。這裡雖然有充沛的太陽能,卻因為地廣人稀,沒有企業願意投資興建發電站,也沒有供電網路。居住在這裡的1.5萬家庭似乎生活在上世紀,沒有空調,沒有冰箱,照明只能依靠太陽能等,長期依靠罐頭食品,因為在沙漠酷熱中,未冷藏的農產品很快就會腐爛。這種極端的資源不平等,與幾十英里外耗電量巨大的資料中心形成了鮮明對比。雖然科技巨頭們並沒有義務投資改善當地居民的生活水平,當地基礎設施落後也不是他們的責任,但資料中心巨大的耗電和耗水量,還是招致了當地居民的強烈不滿。在南部亞利桑那州,圖森和馬拉納兩個資料中心項目的審批過程引發了激烈的社區抗議。圖森市議會曾因擔心對城市水資源的壓力和環境影響,一致否決了Beale基礎設施公司的”藍色項目"資料中心提案。該項目原本需要使用水冷系統,每年需要消耗1300萬噸水,相當於2.5萬個家庭的用水量。這引發了當地居民的憤怒,因為當地本就嚴重缺水。在遭到否決後,Beale決定改用空氣冷卻,並與當地電力公司採購近300兆瓦的電力——足以為大約4.5萬個亞利桑那家庭供電。這又引發了當地居民關於電力短缺與電價上漲的擔憂。雖然Beale公司承諾帶來50億美元的資本投資、1.45億美元的城鎮稅收和4200個建築工作崗位。但反對者擔心,短期的建築工作和稅收收入,無法彌補長期的電價上漲和資源壓力。批評者認為,這種招商機遇是以社區長期福祉為代價的。馬斯克追求效率自造電廠如果說亞利桑那州的情況展現了資料中心與社區資源之間的緊張關係,那麼馬斯克的xAI公司在田納西州孟菲斯的做法,則將這種矛盾推向了極端。馬斯克為了加速其人工智慧超級電腦”巨像"(Colossus)的建設,採取了一系列非常規手段,甚至從海外購買整座發電廠運到美國。2024年9月,xAI在孟菲斯一座廢棄工廠啟動了超級計算中心。這台據稱是世界上最大的AI訓練平台,最初配備10萬個輝達GPU,三個月後擴展到20萬個,xAI計畫最終將其擴展到100萬個GPU。為了滿足巨大的電力需求,xAI向孟菲斯電力公司採購了150兆瓦的電力——足以為10萬個家庭供電。但150兆瓦的供電量遠遠不夠。在等待正式電網連接期間,xAI部署了超過40台可攜式天然氣渦輪機,總功率超過400兆瓦。南方環境法律中心指出,這些渦輪機每年排放1200至2000噸形成霧霾的氮氧化物,使該設施”可能成為孟菲斯最大的氮氧化物工業排放源"。田納西大學諾克斯維爾分校的研究人員發現,xAI開始營運後,設施周圍地區的二氧化氮峰值濃度增加了79%。更令人震驚的是,xAI在沒有獲得必要空氣許可的情況下就開始營運這些渦輪機。該公司利用了當地一個監管漏洞:允許臨時渦輪機在一個地點運行不到一年而無需許可證。2025年1月,在營運數月後,xAI才向謝爾比縣衛生部門申請15台渦輪機的許可證。在去年4月的公開聽證會上,生活在巨像設施附近的居民抱怨空氣質量問題,表示他們因生活在孟菲斯這個污染嚴重的地區而患有慢性呼吸系統疾病。一位女士說她聞到"除了正確的東西之外的一切,而正確的東西就是清潔的空氣"。這個設施位於孟菲斯西南部,這是一個以黑人社區和糟糕空氣而聞名的地區,周圍還有其他17個污染設施,包括煉油廠、鋼鐵廠和燃氣發電廠。孟菲斯反污染社區組織主席凱肖恩·皮爾森(KeShaun Pearson)說:”允許xAI在孟菲斯西南部持續損害我們肺部的持續政策暴力是不道德的。我們應該得到清潔的空氣,而不是無聲的窒息。"馬斯克在2025年7月證實,為了進一步擴張算力,xAI正在從海外購買一座完整的發電廠並運到孟菲斯,這是容量高達2吉瓦的天然氣聯合循環燃氣輪機發電廠。馬斯克表示,在美國建造這樣的設施需要太長時間,所以他選擇快速推進項目。去年年底,xAI又宣佈在密西西比州購買第三塊地用於資料中心,預計總計算能力將接近2吉瓦——用電量相當於150萬美國家庭。這體現了馬斯克一貫強調效率優先的風格。這種營運風格也讓他與監管嚴格、注重環保的加州民主黨政府產生嚴重矛盾,促使馬斯克在過去幾年將旗下幾乎所有公司的營運和投資都轉到德州、田納西州等監管寬鬆的共和黨紅州。其他科技巨頭的做法相比馬斯克的激進做法,亞馬遜、Google和Meta等科技巨頭雖然更加注重環保形象,但它們在資源消耗方面同樣引發了廣泛爭議。Google2023年在全球的營運消耗了約2420萬噸水,其中95%(約2310萬噸)被資料中心使用。該公司在愛荷華州康瑟爾布拉夫斯的資料中心2024年消耗了約378.5萬噸水,是其所有資料中心中用水量最多的。Meta的情況類似,2023年全球消耗約308萬噸水,其中95%(約294萬噸)用於資料中心。2021年,Meta的資料中心從全球範圍內抽取了約492萬噸水,其中約139萬噸來自水資源嚴重緊張的地區。這些公司都設定了到2030年實現"水正效益"的目標,即通過在其他地區投資流域恢復和清潔水項目,回饋與使用量相當的水資源。但批評者指出,這種"水補償"並不像碳補償那樣有效。水資源問題是局部性的,改善一個地區的水資源獲取並不能幫助失去水資源的遙遠社區。更令人擔憂的是這些公司在資料透明度方面的不足。許多公司將水使用量視為專有資訊,當地公用事業公司通常拒絕發佈客戶特定資料,這使得社區和監管機構難以評估對當地水供應的真實影響。在德克薩斯州水資源委員會調查資料中心用水情況時,只有三分之一的營運商做出了回應。在俄勒岡州的達爾斯,Google只有在遭到訴訟後才披露當地資料中心2021年直接使用了135萬噸水——超過該市總供水量的四分之一。亞馬遜的情況更加複雜。儘管該公司聲稱其資料中心用水量遠低於服裝製造或牛肉生產,但調查顯示,亞馬遜在西班牙阿拉貢地區計畫建設的三個新資料中心每年將使用約75.57萬噸的水——大約足以灌溉233公頃玉米。而且這個數字還不包括用於發電的水。非營利調查組織SourceMaterial的調查發現,亞馬遜、微軟和Google正在世界上一些最乾旱的地區營運和建設大量資料中心,對已經面臨水資源短缺的當地人口造成巨大影響。倫理科技協會創始人洛雷娜·豪梅-帕拉西(Lorena Jaume-Palasí)表示:"水資源問題將變得至關重要。從資源角度來看,這些社區的韌性將非常困難。"抗議迫使Google放棄投資面對科技巨頭的擴張,越來越多的社區開始組織起來進行抵抗,拒絕科技中心來自己的家園投資興建資料中心。居民們意識到,資料中心帶來的短期稅收和建築工作,遠遠不能補償長期的資源壓力、電價上漲和環境惡化。在印第安納州的印第安納波利斯,Google曾計畫建設一個佔地約190萬平方米的大型資料中心園區。該項目引發當地居民強烈反對,他們擔憂資料中心將長期消耗大量水資源和電力,卻只能帶來數量有限、以技術崗位為主的就業機會,對社區的實際收益有限。在遭受長達數月的抗議之後,Google最終在去年9月的聽證會上宣佈放棄這一投資計畫。當地居民在現場隨即爆發出歡呼聲,他們成功抵制了這一資料中心項目。在威斯康星州的梅諾莫尼(Menomonie)附近,一個資料中心興建項目引發了民眾的抵制。人們反對在優質農田上建設,並對缺乏透明度表示擔憂。在路易斯安那州東北部,Meta投資100億美元的Hyperion設施正在建設中,居民不斷抗議抱怨交通增加以及學校和住宅附近的安全風險。長期就業機會同樣是民眾不滿之處。芝加哥大學電腦科學教授安德魯·奇恩(Andrew Chien)表示:"由於大部分前期投資都是關於基礎設施的,投資對美國經濟非常有利。"但他補充說,社區面臨的挑戰是如何將這些初始投資轉化為長期利益,比如高薪工作。由於營運資料中心不需要很多人,一旦建成,這些設施通常不能支援很多永久性工作崗位。正是在這樣的背景下,微軟的五點承諾計畫顯得尤為重要。該公司不僅承諾不要求電價補貼或稅收優惠,還主動表示將支付足夠高的電價以覆蓋資料中心的成本,確保這些成本不會轉嫁給當地居民。微軟還承諾到2030年實現資料中心用水強度改善40%,並將補充比使用更多的水。在就業方面,微軟計畫為建築工人和資料中心營運商提供培訓,並投資當地AI教育和非營利組織。AI時代的社會契約資料中心熱潮折射出更深層次的問題:在AI時代,科技公司與社會之間需要建立怎樣的契約?科技巨頭們聲稱AI將帶來巨大的經濟效益和社會進步。微軟CEO薩提亞·納德拉(Satya Nadella)將AI稱為"通用技術",類比為電力或電腦晶片,認為它將推動多個經濟部門的生產力。但問題在於:誰來承擔這種進步的成本?誰又將享受其收益?當前的現實是:成本由社區居民承擔——更高的電費、更緊張的水資源、更糟糕的空氣質量、被破壞的農田;而收益主要由科技公司及其投資者獲得——數兆美元的估值、豐厚的利潤、壟斷性的市場地位。這種不對等的分配是不可持續的,也是不公正的。微軟的五點承諾提供了一個答案的框架:科技公司必須為其資源消耗付費,必須創造本地就業,必須回饋社區,必須承擔環境責任。但這個框架需要從自願承諾轉變為強制性要求,需要從個別公司的善意轉變為整個行業的標準。美國國會等人對科技巨頭的質詢,以及各地社區的反抗,都表明公眾已經開始要求重新談判這份社會契約。資料中心不應該是搾取資源的黑洞,而應該成為真正造福社區的基礎設施。這需要更嚴格的監管、更大的透明度、更公平的成本分擔,以及更多地考慮當地社區的長期利益。現在,微軟給所有科技巨頭樹了一個榜樣。他們需要證明,AI的未來不是建立在社區的犧牲之上,而是建立在真正的共贏基礎上。但真正的考驗是:其他科技巨頭會跟進嗎?更重要的是,這些承諾會真正兌現嗎? (新浪科技)
史無前例!中國人形機器人震驚世界
一場“科技春晚”,居然意外成了全球AI競賽的舞台。更讓人震驚的是,中國人形機器人企業史無前例的“霸場”。21家企業參展機器人佔比過半,這一數字幾乎是美國參展企業數量的4倍,而韓國僅有5家,日本、德國、英國、法國則各僅有1家代表。智元、宇樹、眾擎、天工等機器人全明星天團都來了,這是中國機器人企業組團亮相規模史上最大的一次。機器人格鬥、人機同台互動、賽博遛四足狗,跳操、熱舞、遞名片......中國機器人,不知不覺間已從實驗室走向真實的市場和生活。馬斯克的人形機器人夢,中國先一步照進現實。值得一提的是,初代機器人鼻祖波士頓動力,歷時13年終於帶著準備“進廠打工”的量產版電動 Atlas 亮相;作為對比,智元機器人成立才2年多的時間,就已經可以年交付5000台機器人了,更別說早已深耕機器人領域多年的宇樹科技了。這次機器人技術的線下比拚,看似是中國機器人軍團在“圍剿”波士頓動力,實則更像是單方面的“吊打”。就拿智元機器人來說,全系列產品“參戰”,首次公開亮相的啟元Q1,更是一款集大動作、大智慧、大可玩性於一體,卻擁有小巧身形的科技夥伴。剛剛,智元還放了大招——開源核心平台Genie Sim 3.0正式發佈,人人都可以是華為天才少年“稚暉君”。作為中國機器人的代表之一,智元向世界展示著中國機器人的精髓:真正的科技進步,應該不止能看得見,更加可以體驗。以小看大,人形機器人,或將成為中國科技的又一制高點。01全球最具影響力的科技盛會、素有“科技春晚”之稱的國際消費電子展CES,在美國拉斯維加斯正如火如荼。這次以AI為主題,火爆的展台幾乎都和AI原生相關,且都從炫技進入場景大規模落地階段。讓AI更快落地,這恰恰是中國的優勢。舉個例子,在展館裡一分神你可能會以為自己還在中國。因為,在這個超4000家企業參展事物全球性盛會上,中國企業的數量多達四分之一,不少展台邊被清一色的華人面孔圍觀包場。更可怕的是,像當初巴黎車展中國車企霸展一樣,宇樹科技、智元機器人、銀河通用、雲深處、眾擎、傅利葉、魔法原子、逐際動力、擎朗智能、優裡奇、星動紀元、天工機器人等中國企業的扎堆參展,讓中國機器人成為全場矚目的“流量擔當”。宇樹科技帶來的G1人形機器人在展會現場上演熱血拳擊格鬥;智元機器人展示了全系列產品線,包括靈犀 X2、遠征 A2、精靈 G2、啟元Q1等明星產品;傅利葉展示了新一代全尺寸人形機器人Care-bot GR-3;加速進化帶來的Booster K1機器人模仿舞獅進行表演。從功能演示到場景落地,中國具身智能企業用一場高密度技術秀迅速點燃現場人氣,全方位展現了中國在機器人領域的技術底氣。值得一提的是,開年第一重磅,黃仁勳在CES上特別提及了智元機器人,這是全場唯一被點名的中國機器人企業。他為何如此關注智元,答案在於此次CES上,智元系統地向世界展示了其建構具身智能生態的完整實力。02全球首個個人機器人,由你定義。在過去的兩三年,人形機器人正以前所未有的速度走向成熟。從實驗室裡的概念原型,到真實世界中的服務助手,它們正在一步步地走進我們的生活。目前市面上已有很多人形機器人,有1米7左右的全尺寸人形,和成人體型接近,在商業服務等場景中實現著人機互動;也有1米2左右的中尺寸人形,和小朋友體型差不多,尺寸越小運動性能越高,動作靈活的它們更適合應用於特殊場景;可對個人而言,也許期待著更方便更精緻的小尺寸機器人出現?於是,啟元Q1應運而生。2025年末,智元機器人聯合創始人彭志輝(稚暉君)攜手上緯新材推出全球首款全身力控小尺寸人形機器人啟元Q1,就像17年前賈伯斯把筆記型電腦裝進信封的經典時刻,如今稚暉君將完整的機器人技術,濃縮到了能塞進書包的體積裡,這款機器人的微型化,並非單純的尺寸縮減,而是在保留全尺寸人形機器人核心能力的前提下,力求大幅降低科研成本與物理互動的技術門檻。稚暉君坦言,炸的輕,練的穩,這才是科研該有的節奏。當機器人變小,世界的物理法則也變得溫柔。是啊,小體型,就意味著更低的試錯成本,更高的迭代效率。大多數機器人技術只能在實驗室裡進行,而小尺寸機器人卻把整個實驗室“放進”了背包裡,這又何嘗不是另一種技術變革。此刻,它不再具象於一個機器人,更像是你探索具身智能技術的第一台“畢業機”。科技在變,萬物互聯的目標一直在篤行著;互動終端在變,智能體也在進化,也許未來的智能互動終端,可能是一個跟你長得很像的機器人呢?03人人可參與,人人可實現,人人都能成為“華為天才少年”稚暉君。昨天,智元新一代Genie Sim 3.0開源模擬平台正式發佈,平台能通過自然語言指令,快速生成海量訓練場景,並全量開源上萬小時真機模擬資料集,旨在顯著降低全球開發者的研發門檻,加速技術迭代。前不久,智元機器人與大模型MiniMax正式達成戰略合作,MiniMax將為智元機器人提供端到端文字到語音(TTS)全流程技術支援,通過定製化提示詞策略實現“千人千面”的音色合成,並支援機器人人設體系的動態調整。簡單來說,當你向家庭機器人下達指令時,它不再用千篇一律的合成音回應,而是根據你的使用習慣、情緒狀態甚至當天天氣,自動切換成溫柔的“管家音”或活潑的“夥伴音”——這一場景正在從科幻走向現實。從此前發佈的讓機器人能持續進化的SOP系統,到“千人千面”的語音互動,再到開源Genie Sim 3.0建構生態基石,智元在清晰地向世人展示,它不僅是頂尖的機器人製造商,更是通用機器人生態的建構者。通過開放核心工具,推動全球創新力量,共同加速具身智能的未來。其實,智元的技術實力,已得到多維度驗證,其機器人不僅登上湖南衛視跨年舞台,更在央視上與戲曲名家同台,成功演繹複雜角色。值得一提的是,智元機器人早已步入規模化商用階段,截至2025 年底,公司整體出貨量已突破5100台。更難得的是,稚暉君還宣佈,智元會向高校、創業團隊等科研群體開放開發工具包和介面,正是有了這些科研群體的同心協力,中國人形機器人才能霸屏海外,中國機器人技術才能引領於世界。04說起來,人形機器人還是日本先搞出來的,但卻始終停留在高級電子玩具的層次。韓國也在搞,波士頓動力自誕生起,就是全球機器人研製的標竿。可惜,13年過去,才帶著準備“進廠打工”的企業量產版電動 Atlas 亮相,為時已晚。美國當然也非常注重這個領域,可直到2022年,馬斯克攜人形機器人Optimus(柯博文)入場,同期矽谷初創企業Figure誕生,美國機器人企業才有了更多參照物。別看他們聲勢很大,可中國才是機器人技術制高點。中國不僅科研機構在搞,企業界也在搞,還搞起了各種機器人表演、機器人運動會、機器人足球賽等,在國外還在實驗室研究機器人技術時,中國機器人早已在各應用場景落地互動迭代。人形機器人堪稱人工智慧落地的核心賽道,馬斯克曾直言它會成為特斯拉估值關鍵,可惜特斯拉的Optimus機器人目前產量僅數百台。摩根士丹利的報告顯示,過去五年中國在人形機器人領域提交了7705項專利,數量遠超美國的1561項。更關鍵的是,這些技術正快速轉化為產能:智元機器人5000台具身機器人量產下線,優必選敲定2026年5000台、2027年1萬台的量產目標,宇樹科技新款機型完成技術驗證。北京亦莊機器人馬拉松、冰絲帶機器人運動會輪番上演,中聯重科機器人更在國博展出中實現99.9%分揀精準率。美國這邊政策、產能還在醞釀,中國早已交出亮眼的成績單,這就是環境帶來的差距。資料顯示,中國機器人相關企業超102萬家,2025年新增22.9萬家,廣東、江蘇形成成熟產業叢集。 (投資家)